Logo

Indici di Statistica Inferenziale

Tabella degli indici statistici inferenziali
Nome Simbolo Formula Descrizione Interpretazione Utilizzo
Eta quadrato \(\eta^2\) \(\frac{SS_{\text{effetto}}}{SS_{\text{totale}}}\) Quota di varianza spiegata da un effetto 0.01 = piccolo, 0.06 = medio, 0.14+ = grande ANOVA, ANCOVA
R quadrato \(R^2\) \(1 - \frac{SS_{\text{residuo}}}{SS_{\text{totale}}}\) Varianza spiegata dal modello 0–1; più alto è meglio Regressione lineare
Correlazione \(r\) \(\frac{\text{cov}(X,Y)}{\sigma_X \sigma_Y}\) Relazione lineare tra due variabili -1 a +1 Analisi bivariata
Cohen’s d \(d\) \(\frac{\bar{x}_1 - \bar{x}_2}{s_p}\) Differenza standardizzata tra due medie 0.2 = piccolo, 0.5 = medio, 0.8+ = grande Test t, esperimenti
Test t \(t\) \(\frac{\bar{x}_1 - \bar{x}_2}{SE}\) Confronto tra due medie Valori alti → significativi Inferenza su medie
Test F \(F\) \(\frac{MS_{\text{modello}}}{MS_{\text{errore}}}\) Confronta varianze spiegate vs. non spiegate >1 e p < .05 → effetto significativo ANOVA, regressione
AIC AIC \(2k - 2\ln(L)\) Bilancia adattamento e complessità Più basso = migliore Scelta tra modelli
BIC BIC \(\ln(n)k - 2\ln(L)\) Come AIC ma più penalizzante Più basso = preferito Modelli complessi
LOO-CV LOO Media log-verosimiglianze lasciando fuori 1 osservazione Validazione predittiva modello Più alto = migliore Bayes, modelli predittivi
Z-score \(z\) \(\frac{x - \mu}{\sigma}\) Distanza standardizzata da media |z| > 1.96 → significativo Standardizzazione, normalità
p-value \(p\) - Probabilità di osservare un dato sotto \(H_0\) p < 0.05 → significativo Ogni test d’ipotesi
Alpha \(\alpha\) - Soglia di significatività Tipicamente 0.05 Decisione inferenziale
Bayes Factor \(BF_{10}\) \(\frac{P(D \mid M_1)}{P(D \mid M_0)}\) Supporto relativo per \(H_1\) contro \(H_0\) >1 = favorevole a \(H_1\) Statistica bayesiana
Deviance - \(-2(\log L_{\text{modello}} - \log L_{\text{saturo}})\) Misura bontà del fit nei GLM Più basso = meglio GLM, logistica, Poisson
WAIC WAIC Somma penalizzata di log-verosimiglianze Criterio bayesiano di selezione modelli Più basso = migliore Bayes
ICC ICC \(\frac{\sigma^2_{tra}}{\sigma^2_{tra} + \sigma^2_{intra}}\) Affidabilità intra-classe 0–1; alto = coerente Psicometria, modelli misti

Distribuzione Normale

Proprietà della normale
Proprietà Dettaglio
Simmetria Simmetrica rispetto alla media \(\mu\)
Unimodale Ha un solo picco (moda = media = mediana)
Asintotica Le code si avvicinano all’asse x ma non lo toccano mai
Area totale sotto la curva 1
Percentili importanti 68% dei dati entro 1σ, 95% entro 2σ, 99.7% entro 3σ (regola empirica)

Distribuzione t di Student

Proprietà della t di Student
Proprietà Dettaglio
Simmetrica È centrata su 0, come la normale
Code più pesanti Maggiore probabilità di valori estremi rispetto alla normale
Dipende da \(df = n-1\) \(df=n−1\) Gradi di libertà, variano con la dimensione del campione
Converge alla normale Per \(( n \to \infty )\), la distribuzione t diventa una normale standard
Varianza non definita per \(df \leq 2\)

Distribuzione F di Fisher

Proprietà della F di Fisher
Proprietà Dettaglio
Dominio Solo valori positivi: \(F ∈ [0, +∞)\)
Asimmetrica Ha una coda destra lunga, soprattutto per piccoli d.f.
Dipende da due d.f. Numeratore \(d_1\), denominatore \(d_2\)
Media \(\frac{d_2} {d_2 - 2}\), se \(d_2 > 2\)
Moda \(\frac {(d_1 - 2) d_2}{d_1 (d_2 + 2)}\), se \(d_1 > 2\)
Varianza Formula complessa; esiste solo per \(d_2 > 4\)
Non simmetrica Spostata a destra; con d.f. grandi tende alla distribuzione normale

Distribuzione Chi-quadrato

Proprietà della Chisq
Proprietà Dettaglio
Dominio Solo valori positivi: \(\chi^2 \in [0, +\infty)\)
Asimmetrica Distribuzione asimmetrica a destra, più simmetrica all’aumentare dei gradi di libertà
Dipende da d.f. Unico parametro: gradi di libertà \(k\)
Media \(\mu = k\)
Varianza \(\sigma^2 = 2k\)
Moda \(k - 2\), se \(k \geq 2\)
Simmetria Per \(k > 30\) tende alla normale: \(\mathcal{N}(k, 2k)\)
Somma di quadrati \(\chi^2 = \sum_{i=1}^{k} Z_i^2\), con \(Z_i \sim \mathcal{N}(0, 1)\)

Assunti del modello di regressione

Come tutti i modelli statistici, anche quello di regressione lineare si basa su una serie di assunti che devono essere rispettati ovvero:

  • Indipendenza dei predittori dall’errore. Le X sono misurate senza errore. Tale assunto è evidente nei disegni sperimentali in cui i valori dei predittori sono sotto il diretto controllo dello sperimentatore. Nel resto dei casi i valori delle X sono ottenuti come risultato di un campionamento, pertanto questa assunzione implica che i predittori e gli errori siano indipendenti nella popolazione da cui vengono estratti.

  • Indipendenza delle osservazioni. Tutte le coppie di errori \(\varepsilon i\) ed \(\varepsilon j\) sono tra loro indipendenti per ogni \(i = j\). Detto in altri termini significa semplicemente che le osservazioni sono state campionate in modo indipendente l’una dall’altra.

  • Linearità. Il valore atteso dell’errore per un dato valore di X2 è zero: \(E(\varepsilon i) = E(\varepsilon|xi) = 0\). In pratica significa che il valore atteso della variabile dipendente, \(E(Y)\), è una funzione lineare del predittore.

  • Normalità. Gli errori sono distribuiti normalmente: \(\varepsilon i ∼ N(0,σ2)\). Questo implica che anche la distribuzione di yi sia normale con media pari a \(\beta0 + \beta xi\).

  • Varianza costante. La varianza degli errori è costante per qualunque valore di X : \(V(\varepsilon|xi) = σ2\). Anche in questo caso la varianza costante negli errori implica valori costanti anche della variabile Y per ciascun valore dato di X.

Interpretazione test parametrici

Test Tipo di Dato Assunti Verifica Assunti Interpretazione (p-value)
t-test indipendenti Continua Normalità, omogeneità varianze, indipendenza Shapiro-Wilk, Levene p < 0.05: differenza tra gruppi
t-test appaiati Continua (paired) Normalità delle differenze Shapiro-Wilk su differenze p < 0.05: differenza tra condizioni
ANOVA a una via Continua + gruppi Normalità, omogeneità varianze, indipendenza Shapiro-Wilk, Levene, Bartlett p < 0.05: almeno un gruppo differente
ANOVA a due vie Continua + 2 fattori Come sopra + assenza di interazioni spurie Verifica grafica, Levene, Bartlett p < 0.05: effetti principali/interazione significativi
MANOVA Continua multivariata Multinormalità, omogeneità covarianze, assenza multicollinearità Box’s M, grafici, Bartlett p < 0.05: almeno una differenza multivariata tra i gruppi
Regressione lineare semplice Continua Linearità, normalità residui, omoscedasticità, indipendenza residui Q-Q plot, Breusch-Pagan, Durbin-Watson, scatter plot p < 0.05: predittore significativo
Regressione multipla Continua Idem sopra + no multicollinearità VIF, Condition Index p < 0.05: almeno un predittore è significativo
Test F per varianze Continua Normalità, indipendenza Shapiro-Wilk, disegno p < 0.05: varianze significativamente diverse
Z-test Continua, n > 30 Conoscenza σ pop, normalità (o n grande) Controllo teorico p < 0.05: differenza tra media campione e popolazione

Interpretazione test NON parametrici

Test Tipo di Dato Assunti Verifica Assunti Interpretazione (p-value)
Mann-Whitney U Ordinale o continua non normale Forma simile distribuzioni, indipendenza Boxplot, istogrammi p < 0.05: distribuzioni significativamente diverse
Wilcoxon signed-rank Paired non normali Simmetria differenze, osservazioni appaiate Boxplot delle differenze p < 0.05: differenza significativa tra condizioni
Kruskal-Wallis Ordinale / continua Forma simile, indipendenza Istogrammi, boxplot p < 0.05: almeno un gruppo differente
Friedman test Misure ripetute ordinali Osservazioni appaiate Disegno sperimentale p < 0.05: almeno una condizione differente
Spearman’s rho Ordinale o continua Relazione monotona, indipendenza Scatterplot, test monotonia p < 0.05: correlazione significativa
Kendall’s tau Ordinale, piccoli campioni Relazione monotona, indipendenza Scatterplot, test monotonia p < 0.05: correlazione significativa
Chi-quadro (indipendenza) Categoriale Frequenze attese ≥ 5, indipendenza Tabella contingenza, conteggi p < 0.05: associazione significativa
Test esatto di Fisher Categoriale, n piccolo Frequenze molto basse, 2x2 Tabella contingenza p < 0.05: associazione significativa
McNemar Categoriale paired Osservazioni appaiate Tabella 2x2, differenze discordanti p < 0.05: cambiamento significativo pre/post

Interpretazione test per assunti

Test Assunto Uso Interpretazione (p-value)
Shapiro-Wilk / Kolmogorov Normalità Normalità delle variabili o residui p < 0.05: dati NON normali
Levene / Bartlett Omogeneità varianze Test ANOVA, t-test indipendenti p < 0.05: varianze NON omogenee
Mauchly Sfericità Misure ripetute p < 0.05: sfericità VIOLATA
Breusch-Pagan / White Omoscedasticità residui Regressione p < 0.05: eteroscedasticità presente
Durbin-Watson Indipendenza residui Serie temporali / regressione ≠ 2: autocorrelazione presente
VIF / Tolerance Multicollinearità Regressione multipla VIF > 10: multicollinearità problematicamente alta

Schema decisionale: tipo di effetti casuali vs grafico atteso

🔹 Formula del modello: y ~ x + ( ? | gruppo )

Specifica nella formula Intercette variabili? Pendenze variabili? Tipo di grafico
(1 | gruppo) ✅ Sì ❌ No Intercette variabili
(0 + x | gruppo) ❌ No ✅ Sì Solo pendenze variabili (senza shift)
(1 + x | gruppo) ✅ Sì ✅ Sì Intercette e pendenze variabili
(1 | gruppo) + (0 + x | gruppo) ✅ Sì ✅ Sì Intercette e pendenze variabili (specificati separatamente)
(x | gruppo) ✅ Sì ✅ Sì ✔️ Sintassi abbreviata per (1 + x | gruppo)

Nota bene

  • Se pendenze variabili sono presenti → le linee nei grafici hanno inclinazioni diverse per ciascun gruppo.
  • Se solo intercette variano → tutte le linee hanno stessa inclinazione, ma partono da livelli diversi.

Lettura output

Matrice PSI (Ψ) - effetti casuali

            (Intercept)        x1        x2
(Intercept)   0.9309934 0.1673850 0.3019984
x1            0.1673850 1.0570905 0.1101927
x2            0.3019984 0.1101927 1.2615654
  • 🔍 Interpreta la matrice

Diagonale (verso sinistra) - varianze (quanto variano gli effetti casuali per intercetta, x1, x2)

Fuori diagonale - covarianze (come variano insieme gli effetti nei gruppi)

Regressione lineare


Call:
lm(formula = weight ~ height, data = dati)

Residuals:
    Min      1Q  Median      3Q     Max 
-8.5830 -3.0758 -0.3937  2.6129 14.8068 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) -21.7935     8.2313  -2.648  0.00945 ** 
height        0.9634     0.0481  20.031  < 2e-16 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 4.368 on 98 degrees of freedom
Multiple R-squared:  0.8037,    Adjusted R-squared:  0.8017 
F-statistic: 401.2 on 1 and 98 DF,  p-value: < 2.2e-16

🧾 Interpretazione dell’Output

  • Call: Specifica la formula usata: weight ~ height.
  • Residui: Differenze tra i valori osservati e quelli stimati. Distribuiti idealmente attorno a 0.
  • Coefficienti:
    • Intercept: valore teorico del peso quando l’altezza è zero (non realistico, ma serve al modello).
    • Height: effetto medio dell’altezza sul peso (es. +0.987 kg per ogni cm in più).
  • Errore standard residuo: misura la dispersione dei residui. Più basso = stime più precise.
  • R² / Adjusted R²: percentuale di variabilità spiegata dal modello (con e senza correzione).
  • F-statistic: test globale di significatività del modello. Se p-value è basso → modello significativo.

Regressione lineare - effetti fissi/random

Linear mixed model fit by REML ['lmerMod']
Formula: mpg ~ hp + (1 + hp | cyl)
   Data: mtcars

REML criterion at convergence: 170.9

Scaled residuals: 
     Min       1Q   Median       3Q      Max 
-1.65419 -0.63457 -0.03825  0.48872  2.15522 

Random effects:
 Groups   Name        Variance  Std.Dev. Corr 
 cyl      (Intercept) 27.571143 5.25082       
          hp           0.000613 0.02476  -1.00
 Residual              9.401205 3.06614       
Number of obs: 32, groups:  cyl, 3

Fixed effects:
            Estimate Std. Error t value
(Intercept) 26.63970    3.39879   7.838
hp          -0.05354    0.01680  -3.186

Correlation of Fixed Effects:
   (Intr)
hp -0.975
optimizer (nloptwrap) convergence code: 0 (OK)
boundary (singular) fit: see help('isSingular')

🧾 Interpretazione dell’Output

🔹 Effetti fissi (Fixed effects)

  • (Intercept):
    Questo valore rappresenta la stima del consumo medio di carburante (mpg) quando i cavalli (hp) sono pari a 0. Naturalmente, non è realistico avere 0 cavalli, ma questo valore serve come punto di riferimento nel modello.

  • hp:
    In media, all’aumentare di 1 unità nei cavalli (hp), ci si aspetta una diminuzione di 0.068 miglia per gallone nel consumo (mpg), tenendo conto delle variazioni tra gruppi (cyl).


🔹 Effetti casuali (Random effects)

  • Il termine (1 + hp | cyl) specifica che sia l’intercetta che il coefficiente di hp variano tra i gruppi definiti da numero di cilindri (cyl).

  • Varianza dell’intercetta:
    Indica che esiste una forte variabilità nel livello medio di mpg tra i gruppi di cilindrata.

  • Varianza della pendenza di hp:
    Significa che l’effetto di hp su mpg cambia leggermente tra i gruppi, ma la variabilità è più contenuta rispetto all’intercetta.

  • Correlazione intercetta-pendenza:
    L’output mostra una correlazione negativa (-1.00) tra intercetta e pendenza nei gruppi cyl, quindi gruppi con mpg medi più alti tendono ad avere pendenze più ripide (più negative)


🔹 Errore residuo (Residual variance)

  • Varianza residua:
    Rappresenta la variabilità nei valori di mpg non spiegata né dagli effetti fissi né da quelli casuali. Questo è l’errore “interno” al gruppo.

Analisi della varianza

            Df Sum Sq Mean Sq F value   Pr(>F)    
group        2   1720   860.3   31.37 5.53e-11 ***
Residuals   87   2386    27.4                     
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

🧾 Interpretazione dell’Output

  • Obiettivo: verificare se almeno un gruppo ha una media significativamente diversa.
  • Formula: values ~ group confronta le medie dei gruppi A, B e C.
  • Gradi di libertà (DF):
    • Tra gruppi: k - 1 → 3 − 1 = 2
    • Entro gruppi (residuali): n - k → 90 − 3 = 87
  • Somma dei quadrati (Sum Sq):
    • Between Groups: variabilità spiegata dalle differenze tra le medie
    • Residuals: variabilità interna ai gruppi
  • Media dei quadrati (Mean Sq): Sum Sq / DF
  • F-value: rapporto tra varianza spiegata e residua
  • Pr(>F):
    • Se < 0.05 → almeno un gruppo ha media significativamente diversa
    • Se > 0.05 → nessuna differenza significativa

Confronto tra modelli (AIC)

Global model call: lm(formula = mpg ~ wt + hp + qsec + drat, data = mtcars)
---
Model selection table 
   (Intrc)  drat       hp    qsec     wt df   logLik   AIC delta weight
11  37.230       -0.03177         -3.878  4  -74.326 156.7  0.00  0.181
14  11.390 1.656           0.9462 -4.398  5  -73.352 156.7  0.05  0.176
13  19.750                 0.9292 -5.048  4  -74.360 156.7  0.07  0.175
12  29.390 1.615 -0.03223         -3.228  5  -73.366 156.7  0.08  0.174
16  19.260 1.657 -0.01784  0.5275 -3.708  6  -72.509 157.0  0.36  0.151
15  27.610       -0.01782  0.5108 -4.359  5  -73.571 157.1  0.49  0.141
9   37.290                        -5.344  3  -80.015 166.0  9.38  0.002
10  30.290 1.442                  -4.783  4  -79.484 167.0 10.32  0.001
4   10.790 4.698 -0.05179                 4  -80.752 169.5 12.85  0.000
8   17.740 4.429 -0.05797 -0.2841         5  -80.561 171.1 14.47  0.000
7   48.320       -0.08459 -0.8866         4  -86.170 180.3 23.69  0.000
3   30.100       -0.06823                 3  -87.619 181.2 24.59  0.000
6  -27.840 7.309           1.2130         4  -88.026 184.1 27.40  0.000
2   -7.525 7.678                          3  -92.400 190.8 34.15  0.000
5   -5.114                 1.4120         3  -99.294 204.6 47.94  0.000
1   20.090                                2 -102.378 208.8 52.10  0.000
Models ranked by AIC(x) 

🧾 Interpretazione dell’Output

  • Obiettivo: confrontare tutti i sottoinsiemi possibili del modello globale per identificare il modello più parsimonioso secondo il criterio AIC.
  • Colonne principali:
    • Int, wt, hp, qsec, drat: indicano la presenza o assenza di ciascun termine nel modello.
    • df: numero di parametri stimati nel modello.
    • logLik: log-likelihood del modello.
    • AIC: criterio di informazione di Akaike; valori più bassi indicano modelli migliori.
    • delta: differenza tra l’AIC del modello corrente e il minimo AIC tra tutti i modelli.
    • weight: peso di Akaike, rappresenta la probabilità relativa che il modello sia il migliore tra quelli considerati.
  • Interpretazione dei risultati:
    • Il modello con delta = 0 è il migliore secondo l’AIC.
    • Modelli con delta < 2 hanno un supporto sostanziale e possono essere considerati competitivi.
    • I pesi di Akaike (weight) possono essere utilizzati per il model averaging o per valutare l’evidenza relativa a favore di ciascun modello.

Confronto tra modelli (LOO)

              model    looic se_looic  elpd_diff   se_diff
mod2       mod1: x1 388.6006 12.73663  0.0000000 0.0000000
mod3    mod2: x1+x2 378.9653 13.38565 -0.9298536 0.5735233
mod1 mod3: x1+x2+x3 380.8250 13.39839 -4.8176874 3.4359110

🧾 Interpretazione dell’Output

Significato degli indici riportati:

  • looic (Leave-One-Out Information Criterion): misura la bontà predittiva del modello. Valori più bassi indicano migliore performance predittiva.
  • se_looic: è l’errore standard associato a looic. Indica l’incertezza nella stima di looic.
  • elpd_diff (expected log predictive density difference): differenza della capacità predittiva di ciascun modello rispetto al migliore (quello con elpd_diff = 0). Valori negativi indicano prestazioni inferiori.
  • se_diff: errore standard associato a elpd_diff. Serve per valutare la significatività della differenza: se elpd_diff è maggiore di 2×se_diff, la differenza è considerata sostanziale.

Risultati nel confronto tra modelli:

  • Il modello mod2: x1 + x2 ha il valore di looic più basso, quindi è il miglior modello predittivo tra quelli considerati.
  • Il modello mod1: x1 è significativamente peggiore di mod2
  • Il modello mod3: x1 + x2 + x3, una differenza non significativa rispetto a mod2. Aggiungere la variabile x3 non migliora in modo rilevante la predizione.

In sintesi, mod2 è il miglior compromesso tra semplicità e accuratezza predittiva.

Chisq Test per modelli annidati

Data: sleepstudy
Models:
m1: Reaction ~ 1 + (1 | Subject)
m2: Reaction ~ Days + (1 | Subject)
m3: Reaction ~ Days + I(Days^2) + (1 | Subject)
m4: Reaction ~ Days + I(Days^2) + I(Days^3) + (1 | Subject)
m5: Reaction ~ Days + I(Days^2) + I(Days^3) + I(Days^4) + (1 | Subject)
   npar    AIC    BIC  logLik deviance    Chisq Df Pr(>Chisq)    
m1    3 1916.5 1926.1 -955.27   1910.5                           
m2    4 1802.1 1814.8 -897.04   1794.1 116.4624  1     <2e-16 ***
m3    5 1802.9 1818.9 -896.47   1792.9   1.1349  1     0.2867    
m4    6 1804.9 1824.1 -896.47   1792.9   0.0094  1     0.9226    
m5    7 1806.3 1828.6 -896.14   1792.3   0.6599  1     0.4166    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

🧾 Interpretazione dell’Output

  • Sono stati confrontati 5 modelli misti annidati:
    • Tutti includono un termine casuale per il soggetto ((1 | Subject)).
    • Ogni modello aggiunge progressivamente effetti fissi: Days, Days^2, ecc.
  • La tabella mostra:
    • AIC, BIC: criteri di bontà del modello; valori più bassi sono migliori.
    • logLik: log-verosimiglianza del modello.
    • Chisq: statistica del test del rapporto di verosimiglianza (LRT).
    • Df diff: differenza nei gradi di libertà tra i modelli.
    • Pr(>Chisq): p-value del test LRT.
  • Se il p-value < 0.05 → l’aggiunta della nuova variabile migliora significativamente il modello.
  • È importante usare REML = FALSE per confronti validi tra modelli con effetti fissi diversi.
  • L’ultimo modello con miglioramento significativo e AIC basso può essere selezionato come finale.

Studio di potenza


     Two Sample Cohen's d 

      data.name = Ym and Yf
      statistic = 0.8856
         effect = large

🧾 Interpretazione dell’Output

  • Statistic: d = 0.8856

  • Interpretazione: Effetto grande secondo le soglie di Cohen:

    • piccolo: ~ 0.2
    • medio: ~ 0.5
    • grande: ~ 0.8

Questo significa che la differenza media tra i gruppi Ym e Yf è ampia rispetto alla variabilità complessiva.
L’effetto è sufficientemente forte da essere considerato rilevante

Errori di tipo M o S


    Design Analysis

Hypothesized effect:  cohen_d = 0.4 

Study characteristics:
   test_method   sample_n1   sample_n2   alternative   sig_level   df
   two_sample    8           8           greater       0.05        14

Inferential risks:
   power   typeM   typeS
   0.182   2.887   0    

Critical value(s): cohen_d  =  0.881

🧾 Interpretazione dell’Output

  • Potenza: 0.182
    Il test ha solo il 18.2% di probabilità di rilevare un effetto vero di d = 0.4 se esiste.
    Questo valore è molto inferiore al livello desiderato di 0.80, indicando un alto rischio di falso negativo (errore di tipo II).

  • Errore di tipo M (Magnitude): 2.887
    Se ottieni un risultato significativo, è probabile che l’effetto stimato sarà quasi 3 volte più grande di quello reale.
    Questo riflette un rischio molto elevato di sovrastimare l’effetto in caso di significatività.

  • Errore di tipo S (Sign): 0
    Il rischio che l’effetto significativo abbia segno opposto rispetto a quello reale è nullo.
    Questo è possibile perché il test è unilaterale (“greater”), quindi non considera effetti nel verso opposto.

  • Valore critico di d: 0.881
    Perché il risultato sia significativo a p < 0.05, l’effetto osservato dovrà essere ≥ 0.881.
    Questo è più del doppio dell’effetto ipotizzato, il che rende difficile ottenere significatività con questo disegno.

📌 Conclusione:
Il disegno attuale (n = 8 per gruppo) è sottodimensionato per rilevare un effetto di d = 0.4 con adeguata potenza.
Sono raccomandati campioni più grandi per ridurre il rischio di errore tipo M e aumentare la potenza.

Bayes Factor Analysis

Bayes factor analysis
--------------
[1] wt + hp : 17.27075 ±0.01%

Against denominator:
  mpg ~ wt 
---
Bayes factor type: BFlinearModel, JZS

🧾 Interpretazione dell’Output

  • Sono stati confrontati due modelli:
    • BF1: mpg ~ wt
    • BF2: mpg ~ wt + hp
  • Il Bayes Factor (BF) confronta direttamente la probabilità dei dati sotto i due modelli.
  • Valore calcolato: BF2 / BF1
    • Se BF > 1 → i dati supportano di più il secondo modello.
    • Se BF < 1 → i dati supportano di più il primo modello.
  • Interpretazione standard del BF:
    • 1–3: evidenza debole
    • 3–10: evidenza moderata
    • (>10): evidenza forte a favore del modello al numeratore
  • Il BF è una misura continua della forza di evidenza, a differenza del p-value che si basa su soglie arbitrarie.

Log Relative Evidence tra modelli (Bayes Factor)

🧾 Interpretazione dell’Output

  • Ogni cella della heatmap rappresenta il logaritmo del Bayes Factor tra due modelli specifici.
  • Il colore indica la forza dell’evidenza:
    • Rosso: evidenza a favore del modello sulla riga rispetto a quello sulla colonna.
    • Blu: evidenza a favore del modello sulla colonna rispetto a quello sulla riga.
    • Bianco: evidenza neutra o trascurabile.
  • La scala dei colori è limitata tra -3 e 3 per facilitare l’interpretazione visiva.
  • Questo tipo di visualizzazione consente un confronto diretto e intuitivo tra tutti i modelli considerati.

Interpretazione SEM - path Diagram

Interpretazione e schema decisionale per il conteggio dei parametri in un modello SEM

Il diagramma SEM visualizzato rappresenta una struttura di relazioni tra variabili latenti, variabili osservate, e le associazioni tra di esse. È possibile utilizzare il diagramma per stimare il numero totale di parametri del modello sulla base della tipologia e direzione delle frecce, nonché della presenza di varianze e covarianze.

📌 Categorie principali di parametri da contare

  1. Carichi fattoriali (Loadings)
    • Frecce direzionali da fattori latenti → variabili osservate
    • Numero: 1 parametro per ciascuna freccia
  2. Regressioni strutturali (Path coefficients)
    • Frecce direzionali tra variabili latenti o da manifesti a latenti
    • Numero: 1 parametro per ciascuna freccia
  3. Varianze
    • Rappresentate da semicerchi che si collegano a una singola variabile
    • Ogni variabile latente e ogni variabile manifestata ha una varianza stimata
    • Numero: 1 parametro per variabile
  4. Covarianze
    • Rappresentate da frecce curve tra due variabili senza direzione causale (↔︎)
    • Spesso tra variabili latenti o tra errori di misura
    • Numero: 1 parametro per ciascuna coppia correlata

Tipologie di variabili

Tipo di variabile Caratteristiche Esempi
Esogena Non è spiegata da altre variabili nel modello Età, Sesso, Condizione sperimentale
Endogena È spiegata da almeno una variabile nel modello Depressione, Stress, Prestazione

Dal grafo SEM: come riconoscerle?

  • Freccia in entrata (→) = variabile endogena
  • Solo frecce in uscita = variabile esogena
  • Le variabili latenti possono essere endogene o esogene a seconda del modello

Modello SEM ricorsivo o non ricorsivo

🧭 Schema decisionale (logico):

  • 1. Ci sono relazioni bidirezionali tra variabili endogene?
    • ✅ Sì → Modello non ricorsivo
    • ❌ No → Vai al punto 2
  • 2. Ci sono correlazioni tra gli errori delle variabili endogene?
    • ✅ Sì → Modello non ricorsivo
    • ❌ No → Modello ricorsivo

🧠 Definizioni:

  • Ricorsivo:
    • Nessuna retroazione tra variabili endogene
    • Nessuna correlazione tra gli errori di variabili endogene
  • Non ricorsivo:
    • Feedback o relazioni bidirezionali
    • Errori correlati tra variabili endogene